k-nearest neighbors(KNN,k近邻):一种常见的监督学习方法,用于分类或回归。它通过在特征空间中找到与待预测样本距离最近的 k 个样本,再用这些“邻居”的标签(分类)或数值(回归)来进行预测。常见距离度量包括欧氏距离、曼哈顿距离等。(也常写作 **k-nearest neighbour(s)**,英式拼写为 neighbour。)
/ˌkeɪ ˈnɪərɪst ˈneɪbərz/
I used k-nearest neighbors to classify emails as spam or not spam.
我用 k 近邻算法把邮件分类为垃圾邮件或非垃圾邮件。
Because k-nearest neighbors relies on distance, feature scaling can strongly affect its accuracy.
由于 k 近邻依赖“距离”,特征缩放会显著影响它的准确率。
该术语由 k(表示“取多少个”,即邻居数量)+ nearest(最近的)+ neighbors(邻居)组成,是对方法机制的直观描述:用“最近的 k 个邻居”来决定预测结果。作为机器学习术语,它在统计学习与模式识别文献中逐步固定下来,常缩写为 KNN。